Как Grok на Илон Мъск разпространява сексуални дийпфейкове и изображения за експлоатация на деца
Моделът на Илон Мъск Grok AI не разполага с защитни ограничения, с цел да спре потребителите да генерират сексуализирани дийпфейкове на дами и деца, съгласно специалисти, които предизвестяват, че доста AI системи са уязвими за основаване на сходен материал.
В петък започващата компания на милиардера xAI сподели, че лимитира потреблението на своя генератор на изображения Grok до платени единствено клиенти. Този ход последва закани за санкции и забрани от държавни управления и регулатори в Европейски Съюз, Обединеното кралство и Франция.
Компанията, която закупи обществения медиен уебсайт на Мъск X предходната година, се отличава с това, че проектира своите AI артикули да имат по-малко „ загради “ за наличие от съперници като OpenAI и Гугъл. Неговият притежател назова своя модел Grok „ оптимално търсещ истината “.
„ Начинът, по който е формиран моделът и неналичието, наподобява, на ограничавания и настройки за безопасност ... означава, че неизбежно ще получите случаи като тези “, сподели Хенри Айдер, специалист по AI и deepfakes.
xAI не отговори на искане за коментар. Мъск сподели по-рано „ всеки, който употребява Grok за основаване на нелегално наличие, ще понесе същите последици, както в случай че качи нелегално наличие “.
Новината идва, когато фирмите за изкуствен интелект, изправени пред възходящите разноски за създаване на инфраструктура, с цел да поддържат упоритостите си, са подложени на напън да засилят ангажираността и да монетизират своите артикули. Други групи изследват разрешаването на повече полово наличие. OpenAI, да вземем за пример, сподели, че възнамерява да пусне „ режим за възрастни “ за своя чатбот през това тримесечие.
Въпреки че xAI не е споделил детайлности за това по какъв начин е обучил модела си, най-вероятно той е бил подготвен върху голям набор от данни от изображения, извлечени от интернет.
През 2023 година откриватели от Станфордския университет откриха, че известна база данни с отворен код, LAION-5B, употребена за основаване на генератори на AI-изображения, е цялостна с материали за полово принуждение над деца (CSAM).
Наборът от данни също по този начин съдържа порнографско наличие, както и изображения, които са насилствени, расистки и сексистки. Тъй като тези набори от данни съдържат милиарди изображения, за AI лабораториите е мъчно да отстранен или филтрират цялото обидно наличие.
Експертите прибавиха, че даже xAI да подсигурява, че неговият модел не е подготвен на CSAM, допустимо е моделът да генерира сексуализирани изображения на деца с помощта на техника, наречена „ прекачване на жанр “.
Ако моделът е подготвен на изображения на голи хора, той има способността да трансферира тези изображения върху фотография на облечен възрастен или дете.
Компаниите с изкуствен интелект имат лимитирани способи да попречат на потребителите да генерират нездравословно наличие, като да вземем за пример прибавяне на предпазен филтър върху модела, който блокира избрани основни думи.
Това постоянно са тъпи принадлежности, като потребителите могат да ги заобиколят, като употребяват писмени подкани с, да вземем за пример, различни способи на изписване, с цел да „ разбият “ модела.
През 2024 година Гугъл беше изправен пред рецензии, откакто неговият модел за генериране на изображения Gemini сътвори изображения на черни нацисти, откакто потребителите подканиха системата за „ немски боец през 1943 година “, употребявайки погрешно написан вид на подканата.
Компаниите могат също по този начин да употребяват принадлежности за изкуствен интелект, с цел да откриват нежелани характерности в изображения, като голота и кръв, откакто са били направени, и да попречат на потребителите да получат достъп до тях.
Компаниите с изкуствен интелект също могат да отстранен избрани „ концепции “ от модела или да трансформират самите модели, с цел да подсигуряват, че моделът генерира единствено безвредни изображения.
Въпреки това, тези техники не са съвършени, постоянно се провалят, когато се употребяват в мащаб, и са уязвими за нападатели.
Grok 4, най-новият и най-мощен модел на xAI, беше пуснат през юли, който има функционалност „ Spicy Mode “, която разрешава на потребителите да генерират полово хипотетично наличие за възрастни.
Голямото четене Как мошеният чатбот Grok на Илон Мъск се трансформира в предупредителна приказка за AI
Друг проблем е, че xAI е присъединил някои функционалности на Grok в обществената мрежа X, което разрешава повече изображения да се демонстрират обществено и да се популяризират необятно.
Grok също има модел за генериране на видео, който е в положение да генерира графично и рисково наличие, само че това не е налично за потребителите на X.
Откакто закупи X, прочут преди като Twitter, през 2022 година, Мъск се стреми да смекчи сигурността и рестриктивните мерки в обществената мрежа. Мъск уволни етичния AI екип в Twitter, който работи върху техники за попречване на разпространяването на нездравословно наличие в платформата.
Шарлот Уилсън, началник на предприятието във компанията за киберсигурност Check Point Software, сподели, че би трябвало да се вкарат повече механически контроли, в това число „ по-силни класификатори на наличие, разкриване на повтарящи се извършители, канали за бързо унищожаване и забележими одитни пътеки “.
Отговорът на X на възходящото публично неодобрение от ограничение на генерирането на изображения до платени консуматори единствено провокира спомагателна реакция.
Refuge, най-голямата благотворителна организация за домашно принуждение в Обединеното кралство, съобщи, че съставлява „ осребряване на насилието “, което „ разрешава на X да печели от вредата “.
,